查看原文
其他

千万别让AI夺走你的决策权 | 腾云下午茶

2017-10-12 丁晓东 腾云



数字文化领域著名学者、《连线》杂志首任主编凯文·凯利曾说,“很难想象有什么事物会像廉价、强大、无处不在的人工智能那样拥有‘改变一切’的力量。”


随着人工智能的不断推进,未来算法、数据必然在各个领域与我们发生关系,包括伦理层面。那么怎样看待算法背后的价值预设?怎样避免算法的机械和不平等?怎样对算法进行监管?有了算法,人在决策的过程中如何自处?

 

9月28日,在以“更公平的AI”为主题的腾云下午茶上,中国人民大学法学院未来法治研究院副院长、耶鲁大学法学博士丁晓东分享了对上述问题的看法。

 

本文经腾云编辑整理发布。




丁晓东

中国人民大学法学院未来法治研究院副院长

耶鲁大学法学博士


算法是带有伦理性的科学


算法是不是完全价值中立,或者价值无涉的科学?答案是明确的,不存在完全客观、价值无涉的算法,任何算法都有伦理性或价值预设,只不过这个价值预设是不是正当,需要思考。


算法问题不是完全全新的问题,并非大数据时代到来之后才出现的。比如大学招生,中国基本采用以高考为体系、以分数为标准的算法。在美国,亚裔成绩往往较优秀,而向黑人、墨西哥人倾斜的招生政策,使亚裔深感被歧视,这其中就包含了算法公平问题。


理解算法,首先要把算法从数学的想象当中解放出来,把伦理学、法律、哲学、科学等全部囊括到考虑当中。


在关键问题上,人是决策的主体


50 29528 50 14939 0 0 1694 0 0:00:17 0:00:08 0:00:09 3131 50 29528 50 14939 0 0 1514 0 0:00:19 0:00:09 0:00:10 3036

大数据时代的算法已脱离了个人的理性判断,完全通过相关关系而不是因果关系运行,因此出现了三个方面的问题。


首先,算法的伦理标准是什么?比较通行的标准是反歧视,即不做区分,公平对待,但其中存在一些问题。若脱离社会语境完全反歧视,则会导致表面公平、实际歧视的问题。反歧视算法要思考反区别(anti-discrimination)和反屈从(anti-subordination),而且要思考结构性歧视或结构性不公平的问题,进行实质性判断。


其次,算法的透明问题。从总体上看,要坚持算法的公开性,因为算法的公开性有利于公众参与,避免算法黑箱。但也要看到算法不透明发挥正面作用的可能性,比如中国科技大学給与贫困学生补助的算法,以学生在食堂的消费情况为评定依据,就避免了贫困学生公开“比穷”、伤害贫困家庭孩子自尊心等问题。


最后,采取何种监管方式需要在具体语境中判断,要在不同环境中对搜集数据和算法的运用采取不同的监管措施。而且需要合理运用专家理性、公众参与与市场机制的监管措施,发挥不同监管路径的利弊。


归根结底,根本问题是科技是否中立、是否完全价值无设。我们对人工智能和数据的想象是它能够越来越客观,越来越准确,能像人一样判断,甚至会代替法官判案。但这在逻辑上是不可能的。人工智能算法可以提高预测性,但一旦涉及到人的基本价值问题,人永远在其中扮演主体和决策者角色,我们要大力发展和促进科技,但不能陷入科技的盲目乐观主义,对科技发展中的伦理与法律问题视而不见。 


往 期 回 顾

他靠分析人们花钱的想法拿到了诺奖

KK解读人工智能热:哪些担忧只是杞人忧天?

智库声音 | 人工智能vs人的智能,谁才是Master

腾讯如何看AI:场景和市场最重要

腾讯集团副总裁姚星:AI--真实的希望与隐忧


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存